“Algoritmos éticos”, ilusión más que solución
GABRIELA ARRIAGADA B. Instituto de Éticas Aplicadas e Instituto de Ingeniería Matemática y Computacional, UC
- T+
- T-
GABRIELA ARRIAGADA B.
En Chile, ya están en uso diversos modelos algorítmicos predictivos. La Superintendencia de Seguridad Social, por ejemplo, emplea un modelo para predecir usuarios que tengan mayor probabilidad de formular reclamos. Y el Ministerio de Educación aplica un modelo para reducir arbitrariedades en los procesos de selección del nuevo Sistema de Admisión Escolar. Junto a su implementación, destaca el desarrollo de herramientas para la reducción de sesgos buscando crear “algoritmos éticos” que no discriminan arbitrariamente. Cabe, sin embargo, preguntarse: ¿Está este concepto ayudando en la integración de la ética en el avance de estas nuevas tecnologías? Analicemos esto desde tres puntos de vista.
“La narrativa de los algoritmos éticos conlleva el riesgo de reducir la integración de la ética a la creación de “mejores herramientas” o el cumplimiento de regulaciones y requerimientos”.
Primero, el ideal de reducción de sesgos. Es imposible aspirar a un modelo que carezca de todo sesgo. Esta meta propicia una visión de túnel, evitando que se ahonde en factores de inequidad sistémica. Conceptualizar problemas de justicia desde un enfoque “centrado en el sesgo” arriesga el suponer que, si un algoritmo es imparcial, es por tanto justo. Esto crea puntos ciegos, donde las soluciones algorítmicas se consideran éticas si cumplen con ciertos protocolos, reduciendo el desarrollo algorítmico a su aspecto computacional, y desestimándolo como un sistema sociotécnico creado a través de actividades humanas.
Segundo, el entendimiento de los algoritmos como entidades sociotécnicas. El nivel de integración de estas tecnologías en nuestras vidas ha generado una transformación de lo “público” y lo “privado”, desafiando esferas sociales y políticas. Prácticas como la predicción criminal (la disposición a cometer un crimen) pueden llevar a escenarios “kafkianos” donde se explota la vulnerabilidad de los individuos, quitándoles autodeterminación. Los algoritmos no distinguen el bien del mal, y las predicciones que realizan no provienen de una deliberación moral, son solo una serie de reglas de programación. ¿Cómo pueden entonces ser o no ser éticos?
Tercero, la agencia moral de las entidades algorítmicas. Analizar el rol ético de esta tecnología requiere precisión respecto a las responsabilidades que le otorgamos. Hablar de “algoritmos éticos” denota una capacidad moral superior, pero como nota el filósofo James Moor, los sistemas computacionales tienen una agencia moral mínima. Los algoritmos imitan la agencia moral mediante instrucciones codificadas reflejando sesgos o prejuicios, pero son dependientes de los humanos que los diseñaron, desarrollaron, e implementaron. La creación de un algoritmo ético es, por tanto, una ilusión.
Así, la narrativa de los algoritmos éticos conlleva el riesgo de reducir la integración de la ética a la creación de “mejores herramientas” o el cumplimiento de regulaciones y requerimientos. Para avanzar en una ética de algoritmos, nuestros esfuerzos deben ocuparse de la formación de ciudadanos y profesionales con una capacidad crítica rigurosa, que les permita enfrentar estos desafíos sin recurrir a la etiqueta de la “ética” como una superflua estrategia de marketing. Para esto, la ética aplicada ofrece una alternativa, integrando el discernimiento ético a las metodologías de diseño, desarrollo e implementación de estas tecnologías.